„Aserbaidschan verliert im KI-Rennen“ | INTERVIEW

  04 Oktober 2024    Gelesen: 230
  „Aserbaidschan verliert im KI-Rennen“ |   INTERVIEW

„Leider sehe ich Aserbaidschan nur als Konsumenten von Künstlicher Intelligenz. Unsere Politik in diesem Bereich und die Schritte bestimmter Institutionen vermitteln den Eindruck eines Konsumentenverhaltens. Entscheidend für den Fortschritt ist die Unterstützung von Ideen“, sagt Elvin Abbasov, Experte für Hochtechnologie und KI, in seinem Interview mit AzVision.az. Er fügte hinzu, dass die Ideen der jungen Generation zu KI und anderen Hochtechnologiebereichen in Aserbaidschan keine Unterstützung finden. Verschiedene Fonds investieren lieber in reale Unternehmen. Junges Unternehmertum wird nicht sehr geschätzt.

„Wenn unsere Institutionen Projekte zur Entwicklung von KI ankündigen, zeigt sich bei näherem Hinsehen, dass ihr Ansatz darin besteht, sich einfach mit OpenAIs ChatGPT zu verbinden, Daten zu senden und eine analysierte und verarbeitete Antwort zu erhalten. Das heißt, wir haben kein eigenes KI-Modell. Wir verhalten uns immer noch wie Verbraucher und schaffen nur die Sichtbarkeit des Programms.“

Abbasov sagte, wir müssen mit dem Aufbau einer KI beginnen, indem wir zunächst nützliche Inhalte produzieren. Die Menschen müssen irgendwann erkennen, dass es unmöglich ist, ein Land zu entwickeln, indem man soziale Medien nur zum Spaß nutzt. Jeder sollte in seinem Fachgebiet nützliche Inhalte produzieren:

„Warum können wir in Aserbaidschan keine KI bauen? Weil wir keine wertvollen Inhalte haben. Jeder kann heute eine bauen. Neuronale Netzwerkmodelle sind in Open Source im Internet verfügbar. Eine KI braucht Datenbanken, um zu lernen. Da es in Aserbaidschan keine gibt, können KI-Modelle nicht weiterentwickelt werden.

OpenAI hat bei der Entwicklung von ChatGPT auf Wikipedia in englischer Sprache zugegriffen. Für den Aufbau einer KI sind nützliche Inhalte erforderlich, die wir Big Data nennen. Ich möchte einfach Aserbaidschan und Armenien auf Wikipedia vergleichen. Die Armenier haben mit 150.000 bis 200.000 Benutzern rund 300.000 Artikel erstellt, während Aserbaidschan 200.000 Inhalte und 300.000 Benutzer hat. Und diese 200.000 nützlichen Inhalte sind eine neue Errungenschaft. Nur 30 dieser 300.000 Benutzer sind aktiv und erstellen die wertvollen Inhalte.

Wir als Nation müssen danach streben, wertvolle Informationen zu erstellen. Dies liegt nicht in der Verantwortung von Regierungsbehörden. Wir als Mitglieder der Gesellschaft müssen individuelle Anstrengungen unternehmen, um unseren nationalen Interessen zu dienen. Es besteht ein dringender Bedarf an Inhalten in Aserbaidschan, um eine KI aufzubauen. Dies wird von Regierungen nirgendwo auf der Welt erwartet. Einige Probleme sind eine soziale Verantwortung, und die Gesellschaft muss sich dieser Herausforderung stellen. Die Menschen müssen Kritik zugunsten von Innovationen aufgeben, mit Beschwerden aufhören und mit der Produktion beginnen. Wir müssen anfangen, selbst etwas zu produzieren. Sich zu beschweren bedeutet nur, auf der Stelle zu treten. Es ist Zeit, die Ärmel hochzukrempeln und zur Sache zu kommen. Wir müssen anfangen, etwas zu erschaffen, damit wir unseren zukünftigen Generationen ein Erbe hinterlassen können, das mehr als nur ein paar Witze und Klatsch enthält.“

- Kann die KI dazu verwendet werden, Desinformation zu produzieren und soziopolitische Denkmuster der Öffentlichke it zu manipulieren?

„Das ist nicht direkt möglich. Nehmen wir an, wir wollen Desinformation verbreiten, sie aber als akademische Quelle tarnen. Wir füttern eine KI mit den notwendigen Eingabeaufforderungen und erstellen einen Artikel zu dem Thema. Wir fügen fünf wahre Fakten und ein bisschen Fiktion hinzu und beginnen, ihn zu verbreiten. Wenn jemand auf vier oder fünf verifizierte Informationen zugreifen kann, wird er die sechste nicht auf Glaubwürdigkeit prüfen. Wir können das Gebräu dann auf Wikipedia veröffentlichen und die zuvor verbreitete Desinformation als Quelle angeben und sie so sogar auf ein akademisches Niveau heben.

Man geht davon aus, dass Desinformation heute das Hauptmotiv hinter großen hybriden Kriegen ist. Wir sind Zeugen neuer Motive geworden, die Gesellschaft zu verwirren, ihre Aufmerksamkeit abzulenken und nicht existierende Ereignisse als real darzustellen. KI ist auf dieser Ebene ein mächtiger Akteur, was bedeutet, dass wir sie jedes Szenario erstellen lassen können.

Inzwischen kann KI viele Dinge, die wir vielleicht übersehen haben, präzise analysieren und verarbeiten. Sie ist ein Werkzeug, das Millionen von Quellen gleichzeitig analysiert, Muster findet und ein neues Produkt zusammenstellt. Sie ist frei von Emotionen, Vorurteilen oder Gefühlen. Sie transportiert keine menschlichen Empfindungen, sondern ist einfach eine Kraft der Analyse und Verarbeitung. Sie ist ein hilfreicher Assistent für die Menschheit.‘

- Elon Musk und Steve Wozniak haben beide alarmierende Aussagen zur Wichtigkeit einer strengen Kontrolle in diesem Bereich gemacht. Sind diese Alarmsignale berechtigt? Oder liegen wir falsch mit der Befürchtung, dass ein chaotischer und unkontrollierter Einsatz von KI eine ernsthafte Bedrohung darstellen kann?

„Auf diese Frage gibt es kein klares ‚Ja‘ oder ‚Nein‘. Es hängt alles davon ab, ob Menschen eine sichere oder gefährliche KI entwickeln. Sie ist ein Instrument, das ständig gereinigt und bearbeitet werden muss, Strom und Energie benötigt. Wie wird sich KI ohne menschliches Zutun ernähren und verwalten? Wenn KI sich aufmacht, unsere Art zu zerstören, wird sie sich am Ende selbst zerstören. Andererseits würde voreingenommenes Verhalten einer KI erfordern, dass sie Gefühle hat.

Elon Musk nahm zunächst an OpenAI teil, als es zum ersten Mal gestartet wurde, zog sich aber später zurück. Er unternahm dann mehrere kleine Versuche, seine eigene KI zu entwickeln. Musk ist jemand, der den Erfolg zu 100 % für sich selbst haben will und ihn nicht gerne teilt. Daher glaube ich, dass Musk mit dieser Aussage vielleicht einfach die Avancen seiner Konkurrenten eindämmen wollte.

Ich glaube, Bill Gates hat in diesem Zusammenhang den rationalsten Ansatz: „Das größte Unternehmen der Zukunft wird dasjenige sein, das den besten KI-Assistenten baut.“ Er sieht KI einfach als Assistent, nicht als Kapital oder Mensch.

- Können Staaten ihre Bemühungen bündeln, um die Gefahren zu überwinden, die durch den Missbrauch von KI entstehen können? Oder ist jeder auf sich allein gestellt?

„Für jedes Produkt gibt es internationale Standards und Institutionen. Die Internationale Organisation für Normung arbeitet beispielsweise mit allen Ländern zusammen, einschließlich unseres AzStandard. Ein digitales oder physisches Produkt muss zertifiziert und referenziert werden, bevor es den Verbraucher und die internationale Ebene erreicht. Andernfalls wird es keinen Platz auf dem Markt finden. Es gibt einen Standard, der alles misst.

Auf offenem Feld gibt es aufgrund strengerer Kontrollen weniger Betrug und Missbrauch. KI ist auch eine Open Source mit strenger Kontrolle. KI in eine Waffe zu verwandeln, ist keine leichte Aufgabe. Wenn jemand es versucht, werden 10 andere die Fehler aufdecken und Korrekturen verlangen.

Die gefährlichen Inhalte, die Sie erwähnt haben, werden auf individueller Ebene produziert. Dies sind Produkte, die von speziellen Betrügerbanden und Cyberbetrügern erstellt werden. Aussagen zu machen, die die breite Öffentlichkeit von KI abschrecken, ist einfach falsch, da es sich um ein freundliches Werkzeug handelt. Es ist äußerst nützlich für effizienteres Arbeiten. Diejenigen, die KI nicht in ihrer Arbeit einsetzen können, werden in Zukunft im Nachteil sein. Ich bin der festen Überzeugung, dass jeder lernen muss, sie zu nutzen. Während soziale Netzwerke heute eine zentrale Rolle in unserem Leben spielen, wird diese Rolle schon bald an die KI übergehen. Wir müssen uns nicht davor fürchten, denn die KI ist kein Feind, sondern ein Freund.“

Sahil Isgandarov


Tags:


Newsticker